今天的CNN來到了第四天,也到了尾聲啦!今天介紹的是在神經網路中扮演了將特徵向量映射到輸出結果的關鍵角色——全連結層。
全連階層(Fully Connected Layer, FC Layer)是我們神經網路中的關鍵組成部分,特別是在深度學習模型中,它負責把來自前面層次的輸入(通常是卷積層或池化層的輸出)進行轉換,然後把這些特徵映射到最終的預測結果。每一個神經元和前一層的所有神經元都完全連接 →它是一個密集的網路結構。
經過多次卷積和池化後,特徵圖會被展平為一個一維向量,然後輸入到全連接層。
全連接層的最主要的作用是根據先前提取的特徵進行分類。
工作原理:
1.展平特徵:卷積層和池化層的輸出(多個特徵圖)展平為一個一維向量。
2.權重運算:展平的向量與全連接層的權重矩陣相乘,加上偏置,我們會得到輸出值。
3.激活函數:對輸出值用上激活函數(如 ReLU),引入非線性。
4.輸出層:如果是分類任務,通常使用 softmax 把輸出轉換為概率分佈,用在最終分類。
全連接層會把前面的局部特徵整合起來,接著會輸出最終結果。
優點
1.強大的學習能力:因為每個神經元與上一層的每個神經元都完全連接,全連階層可以捕捉到所有可能的輸入特徵之間的關係。
2.適用於各種任務:不管是圖像分類、語音識別還是自然語言處理,這些模型的最終輸出,通常都來自一個或多個全連階層,因為它有辦法有效的把特徵映射到預測結果。
缺點
1.參數量巨大:由於每個神經元都與前一層的每個神經元相連,這時候會產生大量的權重參數,這使得全連階層計算複雜,容易造成過擬合,特別是在輸入維度較大時。
2.不適合做高維數據的初期處理:對於圖像、音頻等高維數據,全連階層並不是最佳選擇,因此通常在卷積神經網路中,會在全連階層前使用卷積層來降低數據維度,然後提取局部的特徵,